演讲

GTC 2022 春 — Hopper H100 与 AI Factories

开场:公司不再只是处理数据,而是在制造智能

GTC 2022 春是黄仁勋正式把"AI 工厂"当成核心叙事推上舞台的那届——比 GTC 2023 提前一年,为整个产业的想象力装上了一个新的心智模型。

他在 NVIDIA Omniverse 里虚拟出场,用一场非常刻意的"虚拟开场"呼应他要讲的内容:"公司正在处理数据、提炼数据、制造 AI 软件,正在成为智能的制造商。AI 正在向所有方向同时飞奔。" 然后他把整个 NVIDIA 的技术叙事重新组织成"为虚拟与现实世界同时工业级地制造智能"。

开场他还抛出一个超大野心:"科学家估计,要有效模拟区域气候变化,需要比今天大十亿倍的超级计算机。NVIDIA 会用 Earth-2 来迎接这个重大挑战——全球第一台 AI 数字孪生超级计算机——在为时已晚之前,发明新的 AI 和计算技术,给这个世界一个十亿倍的提升。"(Earth-2)

Hopper H100:世界 AI 基础设施的"新发动机"

"AI 数据中心处理成山的连续数据,训练和精炼 AI 模型。原始数据进来,被提炼,智能出去——公司正在制造智能、运营巨大的 AI 工厂。这个工厂 24/7 运转,强度极高。哪怕微小的质量提升都会带来客户参与度和公司利润的大幅增长。"

这段是"AI 工厂"这个隐喻第一次在 GTC 舞台上被系统化表达。注意他的选词——"intelligence manufacturer"——工厂的产出不是 token(那是 2024-2025 的讲法),而是"智能"本身。

为了驱动这些工厂,他发布了 NVIDIA Hopper H100——800 亿晶体管、台积电 4N 工艺。"Hopper H100 是史上最大的代际飞跃——大规模训练性能是 A100 的 9 倍,大语言模型推理吞吐量是 A100 的 30 倍。"(TSMC

Hopper 的核心架构突破是 Transformer Engine——可以让 Transformer 网络加速 6 倍而不损失精度。"训练一个 Transformer 模型的时间可以从几周缩短到几天。" H100 Q3 开始量产供货。

Grace CPU Superchip:第一颗数据中心 CPU

这是他继 GTC 2021 春宣布 Grace 项目后的正式硬件发布:Grace CPU Superchip——NVIDIA 第一颗面向 HPC 的独立数据中心 CPU。

两颗 CPU 芯片通过 900 GB/s 的 NVLink chip-to-chip 互联组成一颗 144 核、1 TB/s 内存带宽的超级芯片。"Grace CPU 是世界 AI 基础设施的理想 CPU。"

配套发布:基于 Hopper 的新一代 AI 超级计算机——DGX H100、H100 DGX POD 和 DGX SuperPOD。NVIDIA 自己会率先建一台叫 "Eos" 的 DGX SuperPOD——576 台 DGX H100、4608 颗 H100 GPU,预计是当时全球最快的 AI 系统,专门用于 NVIDIA 的气候科学、数字生物学和未来 AI 研究。

他同时做了一个当时很少人注意、但后来意义极大的宣布:NVIDIA 开放 NVLink 给客户和合作伙伴,让他们能自己做集成 NVLink 的定制芯片。"NVLink 为客户打开了一个新世界——可以构建半定制的芯片和系统,充分利用 NVIDIA 的平台和生态。" 这是 NVIDIA 第一次把它最宝贵的互联协议变成一个可授权的接口——为 Grace Hopper、Grace Blackwell 这类"超级芯片"埋下伏笔。

而未来的所有 NVIDIA 芯片——CPU、GPU、DPU、SoC——都会用新一代 NVLink 互联。

软件:AI 从根本上改变了软件能做什么、怎么做

"因为加速计算释放出的加速能力,AI 的进展令人震惊。AI 从根本上改变了软件能造什么,也改变了你如何造软件。"

他讲了一段关于 Transformer 的深度反思:"Transformer 让自监督学习成为可能,解除了对人工标注数据的依赖。结果就是 Transformer 被释放到越来越多的领域——Google BERT 用于语言理解、NVIDIA MegaMolBART 用于药物发现、DeepMind AlphaFold2 用于蛋白质折叠——这些突破都可以追溯到 Transformer。Transformer 让自监督学习成为可能,AI 由此进入曲速(warp speed)。"

"AI 正在向所有方向同时飞奔——新架构、新学习策略、更大更稳健的模型、新科学、新应用、新产业,同时发生。"

他宣布更新 60 多个 CUDA-X 库、发布 NVIDIA AI Enterprise 2.0、更新 NeMo Megatron 0.9 框架、Triton Inference Server、Maxine 等等。"我们在这次 GTC 更新了 60 个 SDK——对我们的 300 万开发者、科学家和 AI 研究员,以及数万家初创公司和企业来说,你现在运行的 NVIDIA 系统突然就变快了。"

"NVIDIA SDK 服务于医疗、能源、交通、零售、金融、媒体娱乐——加起来是 100 万亿美元的产业。"

Omniverse:数字孪生是互联网的下一次进化

"半个世纪前,阿波罗 13 号任务遇险。为了拯救宇航员,NASA 工程师在地球上造了一个太空舱的模型来'还原问题'。" 他用这个类比进入当天的下一个主题:

"把这个想法扩展到巨大尺度——数字孪生 就是一个与物理世界相连的虚拟世界。在互联网的语境里,它是互联网的下一次进化。"

NVIDIA Omniverse 软件(用来构建数字孪生)加上新的数据中心规模的 NVIDIA OVX 系统,将成为"行动导向型 AI"的核心平台。"Omniverse 是我们机器人平台的中心。正如 NASA 和亚马逊所意识到的,我们和我们在机器人、工业自动化领域的客户都清楚数字孪生和 Omniverse 的重要性。"

OVX 的骨架是网络。他宣布 NVIDIA Spectrum-4——全球第一个 400 Gbps 端到端的网络平台,由 Spectrum-4 交换机、ConnectX-7 SmartNIC、BlueField-3 DPU 和 DOCA 软件组成。

同时发布 Omniverse Cloud——"只需点几下,协作者就能通过云端接入 Omniverse。" 他在现场演示了四位设计师(其中一位是 AI)合作构建一个虚拟世界。亚马逊也在用 Omniverse Enterprise 来"设计和优化他们那些令人惊叹的履约中心运营——现代履约中心正在演变成技术奇迹,人类和机器人一起工作的设施。"

下一波 AI:机器人

新硅、新软件、新仿真能力会释放出"下一波 AI"——"能够构思、规划、行动的机器人"。

NVIDIA Avatar、Drive、Metropolis、Isaac、Holoscan——这些机器人平台围绕"四大支柱"做端到端全栈:地面真值数据生成、AI 模型训练、机器人软件栈、Omniverse 数字孪生

Drive 自动驾驶系统——"本质上就是一个 AI 司机"。Hyperion 8 硬件架构(360 度相机、雷达、激光雷达、超声波传感器)将从 2024 年开始装上奔驰,2025 年登陆捷豹路虎。Orin SoC 已于本月正式量产,BYD(全球第二大电动车制造商)和 Lucid Motors 宣布采用。

他同时发布了下一代 Hyperion 9,基于 NVIDIA Drive Atlan SoC——性能是 Orin 的两倍,2026 年开始出货。NVIDIA 的汽车业务管道已经累计超过 110 亿美元。

NVIDIA Isaac Nova Orin——一个基于 Jetson AGX Orin 的计算与传感器参考平台,为自动移动机器人加速开发和部署。Metropolis(追踪移动物体的静态机器人)与 Isaac(会移动的机器人)分工明确。

Clara Holoscan 把 Drive 级别的实时计算能力带到医疗设备上。演示案例是 UC Berkeley Advanced Bioimaging Center 的 light-sheet 显微镜——原本一台仪器每小时产生 3 TB 数据,处理一整天才能完成;用 Holoscan 可以实时处理,让研究人员在实验进行中就能自动对焦。

四层栈、五大动力

收尾时他把所有技术放回一个整体框架里——NVIDIA 按四层栈组织:
1. 硬件
2. 系统软件与库
3. 软件平台:NVIDIA HPC、NVIDIA AI、NVIDIA Omniverse
4. AI 与机器人应用框架

以及塑造这个产业的五大动力
1. 百万倍的计算加速(新摩尔定律)
2. Transformer 给 AI 装上涡轮
3. 数据中心变成 AI 工厂
4. 对机器人系统的指数级需求增长
5. 数字孪生开启 AI 的下一个时代

"在整个栈和数据中心规模上加速,我们将在下一个十年里争取再来一个百万倍。我迫不及待想看看下一个百万倍会带来什么。"


原文出处:NVIDIA 官方 wrap-up(blogs.nvidia.com/blog/ai-factories-hopper-h100-nvidia-ceo-jensen-huang/)